Protocol Lab目前算是在探索去中心化儲存項目中的最努力之團隊,且可以看出一切是以IPFS為核心,發展出來的技術線,包含像是p2p的一些工具包,近期關於科學計算這塊也是web3中著墨最多的,且相對於以太坊背後的以太坊基金會來說,Protocol Lab彷彿不止是以Filecoin這區塊鏈為主,或則是說超越區塊鏈的角度,反而是在以如何創造一個新的“網路”系統,從URL到CID,一些去中心化的工具(畢竟Filecoin也不是Protocol Lab第一個推出的項目),近期他們最重要在探索的就是Compute Over Data,這概念其實是在使用如容器類架構中蠻常用到的,而這邊重新包裝概念,且使用web3的工具和架構,來實踐這個概念。(web3最迷人的地方就是大家不斷在探索新的方向)
為何提出這個概念呢?其實主要也是當今資料爆炸後,所遇到的另一個困擾,剛好可以利用去中心化項目來解決,這困擾如下,根據IDC的預測,到2025年,全球將儲存超過175兆GB的資料,且大部分的數據將在2020到2025年間生成,預估的年複合增長率為61%。這代表挑戰將越來越艱難,第一個挑戰便是數據的傳輸既慢又昂貴。若以目前的網絡帶寬下載175兆GB的資料,大約需要18億年。第二個挑戰則是數據合規困難,全球有數百項與數據相關的治理規定,使跨法域的資料合規處理變得極為困難,所以未來將運算到去資料或許是更重要的。
圍繞這主題有很多重要的議題要處理:
當前Bacalhau算是這領域的推動者之一,也在今年舉辦相關的會議
會議中的主題:
Compute over Data working group
Decentralized Compute: What if unlocks and why it matters
Comparing 4 decentralized storage projects
我們的基因體時代是我經營的部落格,如有對於合成生物學、生物資訊、檢驗醫學、資料視覺化、R語言有興趣的話,可以來交流交流!也可以追蹤我的工作IG,但就是偏向醫療為主,假如對去中心化科學有興趣,則可以進入到g0v的da0頻道中多多交流。